Plaud Note Pro凭借信用卡尺寸、离线录音和独立工作能力,在专业场景中异军突起,累计出货超100万台,超50%用户转化为付费订阅,成为AI录音设备领域的“隐形冠军”。
VideoPipe是一款开源视频分析框架,专注于计算机视觉AI算法的快速集成与落地。其核心创新在于采用可组合的管线设计,将复杂任务模块化,帮助开发者简化底层编码,聚焦业务逻辑,提升开发效率。
Waymo正测试将谷歌Gemini大模型集成到无人驾驶出租车中,打造名为“Waymo出行助手”的车载AI伴侣。一份长达1200多行的内部指令曝光,显示该AI被设计为安全、克制、高度场景化的乘客服务引擎。
G123是一款专为AI重度用户设计的极简导航工具,精选300多个高频可靠工具,覆盖写作、绘画、编程等八大场景,并提供聚合搜索功能,帮助用户快速找到所需AI工具,解决网址分散问题。
用AI轻松去除和替换照片中的衣服,预设或文本提示皆可,无需设计技能。
Inspix AI是终极AI视频与图像创作平台,可从文本和图像生成视频。
轻量级布局到图像生成框架,实现精准空间控制。
Nano Banana Pro是前沿AI图像生成引擎,4K画质、角色一致,推理生成强大。
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Openai
-
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$6
$24
256
Baidu
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
prithivMLmods
VibeThinker-1.5B是微博AI推出的15亿参数密集语言模型,基于Qwen2.5-Math-1.5B微调,专门针对数学和算法编码问题设计。采用'频谱到信号原理'框架训练,在多个数学竞赛测试中超越规模更大的模型,训练成本约7800美元,支持最长约40k词元的输出。
allenai
Olmo-3-7B-Think-DPO是Allen Institute for AI开发的7B参数语言模型,具有长链式思考能力,在数学和编码等推理任务中表现出色。该模型经过监督微调、直接偏好优化和基于可验证奖励的强化学习等多阶段训练,专为研究和教育用途设计。
Smith-3
这是一个专为圣西蒙大学科学与技术学院学生设计的微调AI模型,集成在TecnoTime应用程序中,帮助学生保持学习组织性、提高学术连续性,通过结构化通知和激励信息强化学习习惯。
Salesforce
CoDA是Salesforce AI Research研发的基于扩散模型的代码生成语言模型,具备双向上下文理解能力,专为强大的代码生成和补全任务而设计。该模型仅17亿参数,在保持低计算要求的同时实现了卓越的代码生成性能。
Sunbird
Sunflower-14B是由Sunbird AI开发的多语言大语言模型,专门针对乌干达语言设计。该模型基于Qwen 3-14B架构构建,支持31种乌干达语言以及英语的翻译和文本生成任务,在多项评估中表现出色。
Mungert
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。该模型采用创新的混合Liquid架构,具有乘法门和短卷积,支持多语言处理。
LiquidAI
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,特别适合在资源受限的环境中运行。
geoffmunn
这是Qwen/Qwen3-0.6B语言模型的GGUF量化版本,一个拥有6亿参数的紧凑大语言模型,专为在低资源设备上进行超快速推理而设计。支持llama.cpp、LM Studio、OpenWebUI和GPT4All等框架,可在任何地方离线使用私有AI。
ibm-granite
Granite-4.0-H-Small是IBM开发的320亿参数长上下文指令模型,专为企业级AI助手构建设计,支持多种语言和专业应用场景。
nvidia
NVIDIA Qwen3-14B FP4模型是阿里巴巴Qwen3-14B模型的量化版本,采用FP4数据类型进行优化,通过TensorRT-LLM进行高效推理。该模型专为NVIDIA GPU加速系统设计,适用于AI Agent系统、聊天机器人、RAG系统等多种AI应用场景,支持全球范围内的商业和非商业使用。
UsefulSensors
Moonshine Tiny是由Moonshine AI(原有用传感器公司)开发的轻量级越南语自动语音识别模型,仅有27M参数,专为资源受限平台设计,在Fleurs和Common Voice 17数据集上表现出色。
Jackmin108
GLM-4.5-Air是智谱AI推出的适用于智能体的基础模型,采用紧凑设计,统一了推理、编码和智能体能力,能满足智能体应用的复杂需求。该模型参数量适中且效率优越,已开源多种版本,可用于商业和二次开发。
LFM2-Audio-1.5B是Liquid AI推出的首个端到端音频基础模型,专为低延迟和实时对话设计。该模型仅15亿参数,能够实现无缝的对话交互,其能力可与参数规模大得多的模型相媲美。
TildeAI
TildeOpen LLM 是一个开源的基础语言模型,专门为服务代表性不足的北欧和东欧语言而设计。该模型由欧盟委员会资助,在LUMI超级计算机上训练,拥有300亿参数,解决了19种重点语言使用者在现有AI系统中面临的性能差距问题。
NVIDIA-Nemotron-Nano-9B-v2是NVIDIA从头训练的大语言模型,专为推理和非推理任务设计。采用Mamba2-Transformer混合架构,支持多语言处理,具备可控推理能力,允许用户指定思考预算,在商业应用和AI代理系统中表现出色。
gabriellarson
Foundation-Sec-8B-Instruct是一款专为网络安全应用设计的80亿参数指令调优语言模型。基于Llama-3.1-8B架构,具备出色的指令跟随能力和网络安全专业知识,支持本地部署,可帮助组织构建AI安全工具,减少对云服务的依赖。
danielkty22
TARS-SFT-7B是一个基于监督微调的安全推理模型,作为强化学习训练的基础模型,专门设计用于增强AI系统的安全性。该模型从Qwen2.5-7B-Instruct开始训练,通过推理过程作为自适应防御机制来提升模型的安全性能。
Cosmos-Predict2.5是NVIDIA开发的专为物理AI设计的高性能预训练世界基础模型套件,基于扩散模型技术,能够根据文本、图像或视频输入生成具有物理感知的高质量图像和视频,为自动驾驶、机器人等应用提供世界模拟能力。
NoemaResearch
Nous-V1 8B是由Apexion AI开发的80亿参数语言模型,基于Qwen3-8B架构构建。该模型专为处理各种自然语言处理任务而设计,在对话式AI、知识推理、代码生成和内容创作等方面表现出色,在模型能力和实际部署效率之间取得了良好平衡。
Eino是一个专为Golang设计的LLM应用开发框架,旨在通过简洁、可扩展、可靠且高效的组件抽象和编排能力,简化AI应用开发流程。它提供丰富的组件库、强大的图形编排功能、完整的流处理支持以及高度可扩展的切面机制,覆盖从开发到部署的全周期工具链。
Cipher是一个专为编程AI代理设计的开源记忆层框架,通过MCP协议与各种IDE和AI编码助手集成,提供自动记忆生成、团队记忆共享和双系统记忆管理等核心功能。
PG-MCP是一个为PostgreSQL数据库设计的模型上下文协议服务器,提供AI代理发现、连接、查询和理解数据库的API,支持多数据库连接、丰富的目录信息和查询解释功能。
MCP Atlassian是一个为Atlassian产品(Confluence和Jira)设计的模型上下文协议服务器,支持云端和本地部署,提供AI助手集成功能。
MCP Agent Mail是一个为AI编程代理设计的邮件式协调层,提供身份管理、消息收发、文件预留和搜索功能,支持多代理异步协作和冲突避免。
HiveChat是一个专为中小团队设计的AI聊天应用,支持多种大模型服务商,提供分组管理、Token限额、第三方登录等功能。
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
Redis MCP Server是一个为Redis设计的自然语言接口服务,支持AI代理通过自然语言查询和管理Redis数据,集成MCP协议,提供多种数据结构和搜索功能。
Wren Engine是一个为MCP客户端和AI代理设计的语义引擎,提供语义层支持,使AI能准确理解企业数据模型和业务逻辑。它支持多种数据源,嵌入MCP客户端,确保数据交互的精确性和治理。
基于即梦AI的图像生成服务,专为Cursor IDE设计,实现文本描述到图像的生成与保存。
AI开发助手MCP服务器是一个基于AI的代码开发工具包,提供代码架构生成、UI截图分析和代码审查等功能,专为Cursor设计。
Godot MCP是一个为Godot游戏引擎设计的模型上下文协议服务器,提供编辑器控制、项目运行、调试输出捕获等功能,支持AI助手与Godot引擎的交互。
Armor Crypto MCP是一个为AI代理与加密货币生态系统集成设计的工具,支持钱包管理、交易、跨链操作等功能,目前处于Alpha测试阶段。
MemoryMesh是一个为AI模型设计的知识图谱服务器,专注于文本RPG和互动叙事,帮助AI维护跨对话的结构化记忆。
一个为AI助手设计的n8n工作流管理协议服务器,支持通过自然语言交互实现工作流的创建、执行和监控。
这是一个基于Docker容器的AI开发工具项目,通过Markdown文件编写复杂工作流,结合Docker化工具和用户自选的LLM模型,实现多模型代理和项目优先设计的工作流程。
MemoryMesh是一个为AI模型设计的知识图谱服务器,专注于文本角色扮演游戏和互动叙事。它通过动态模式定义和自动生成工具,帮助AI在对话中维护一致且结构化的记忆,实现更丰富、更动态的交互体验。
DB MCP Server是一个支持多数据库的服务器,实现了模型上下文协议(MCP),为AI助手提供结构化访问数据库的能力。它支持MySQL和PostgreSQL,可同时连接多个数据库,自动生成专用工具,并遵循清晰架构设计。
Claude Talk to Figma MCP是一个基于Model Context Protocol的插件,允许Claude Desktop等AI工具直接与Figma交互,实现AI辅助设计功能。项目通过WebSocket服务器连接AI客户端和Figma插件,支持文档分析、元素创建修改、文本处理等设计操作。
一个基于FastAPI的企业级MCP服务器开发框架,支持将传统API自动转换为AI可调用工具,提供标准化开发流程和依赖注入设计。